Проект закона об ИИ: влияние на использование в бизнесе

Каждый раз, когда появляется новость о каком-нибудь законе, связанном с технологиями, интернет делится на два лагеря. Первый кричит «Конец света, всех заблокируют, маркируйте всё». Второй молчит и ждёт, когда буря уляжется. А потом выясняется, что ни те, ни другие особенно не разобрались в деталях.

С законом об искусственном интеллекте — ровно та же история.

Итак, факты. Минцифры разработало и опубликовало проект федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации». Дата вступления в силу — 1 сентября 2027 года. До этого момента документ пройдёт многоступенчатый процесс экспертиз, согласований и парламентских рассмотрений. Что он будет принят именно в нынешнем виде — не гарантировано. Что он будет принят вообще — вероятно, но не стопроцентно.

Это важно держать в голове: пока перед нами проект, а не закон.

Но вот в чём штука. Даже если закон изменится до неузнаваемости — логика, которую закладывают его авторы, уже многое говорит о том, как государство намерено смотреть на ИИ в бизнесе. И эта логика заслуживает внимания куда больше, чем очередной заголовок «ИИ-контент обяжут маркировать».

 

Кто за что отвечает — и почему это важнее, чем кажется

Первое, на что стоит обратить внимание: закон чётко разграничивает роли. Оператор систем ИИ, владелец сервиса ИИ, пользователь сервиса ИИ — это разные субъекты с разными правами и, главное, с разным объёмом ответственности.

Большинство бизнесов, которые используют ChatGPT, GigaChat, Claude или любой другой готовый инструмент через обычный пользовательский интерфейс, являются просто пользователями. И их ответственность в рамках этой логики — минимальна.

А теперь представьте, что вы решили пойти дальше. Подключили API, настроили кастомного бота, встроили ИИ в свой сервис — и формально стали владельцем ИИ-сервиса. Поздравляю: ваш уровень ответственности вырос на порядок.

Это не значит, что кастомные решения — зло. Это значит, что прежде чем строить собственный ИИ-продукт, стоит очень внимательно изучить, что именно из этого следует юридически. Потому что разница между «мы используем ИИ-инструмент» и «мы предоставляем ИИ-сервис» — это не техническая деталь, это разные правовые вселенные.

 

Автономный ИИ и его неожиданный счёт

Здесь самое интересное для тех, кто строил «контент-заводы» или любые другие автоматизированные процессы, где человек фактически устранён из принятия решений.

Если ИИ у вас работает автономно — сам генерирует, сам публикует, сам рекомендует, сам оказывает услугу — законопроект обязывает вас делать две вещи. Первое: информировать клиентов о том, что с ними взаимодействует ИИ. Второе: если клиент не хочет работать с автономным ИИ — предоставить ему альтернативу с участием живого человека.

И это ещё не всё. У клиента появляется право требовать компенсацию вреда, если что-то пошло не так.

Теперь вспомним тех, кто предлагал маркетинговые стратегии «в один клик», образовательные курсы, сгенерированные за минуты, или индивидуальные планы питания, собранные нейросетью без единого живого взгляда. Что будет, если клиент, следуя этой стратегии, сольёт рекламный бюджет? Если онлайн-школа выдаст неверную информацию, которая навредит ученику? Если диетический план окажется несовместимым с индивидуальными особенностями здоровья человека?

 

Переложить ответственность на разработчика ИИ-модели можно только в одном случае: если вы докажете, что вред возник вследствие технической ошибки самого инструмента. В 99% реальных ситуаций речь будет идти о том, как вы этот инструмент применили.

Вывод? Автоматизация — прекрасно. Но автоматизация без продуманной системы ответственности — это не бизнес-процесс, а бомба замедленного действия.

 

Про маркировку — то, что все поняли неправильно

Самая растиражированная паника звучит так: «Весь контент с ИИ теперь нужно помечать». Это неверно.

По логике законопроекта, добавлять пометку об использовании ИИ должны владельцы сервисов, которые его используют для генерации. Пользователь, работающий с чужим инструментом, несёт ответственность только в одном случае: если он намеренно удалил существующую маркировку.

 

Отдельная история — крупные площадки с суточной аудиторией от 100 тысяч человек. Они обязаны проверять наличие пометки на ИИ-контенте и либо добавлять её, либо удалять такой материал.

То есть, если вы — блогер, фрилансер или небольшой бизнес, публикующий контент с помощью ИИ — бежать срочно всё переклеивать не нужно. Но если вы строите платформу или медиа с большой аудиторией, этот момент стоит учесть в архитектуре.

 

Зарубежные нейросети: реальный риск или возможность?

В законопроекте есть пункт о том, что трансграничные ИИ-технологии могут быть запрещены или ограничены в случаях, установленных законодательством. Формально это открывает возможность для ограничения доступа к иностранным моделям.

Насколько это реально? Пока это формулировка в проекте закона. Но сам факт её наличия — сигнал. Строить долгосрочные бизнес-процессы целиком на одном иностранном инструменте, без какого-либо плана «что, если доступ закроется» — рискованно.

 

Что со всем этим делать прямо сейчас

Коротко: ничего экстренного.

Но необходимо вдумчиво подготовиться к разговору, пока есть время. С клиентами, с командой, с юристом — если у вас серьёзный продукт с ИИ внутри.

Несколько конкретных шагов, которые имеет смысл сделать уже сейчас.

  • Первое. Аудит своих процессов: где именно у вас ИИ принимает решения без участия человека? Это не призыв всё остановить — это призыв понять, где именно будет возникать ответственность.
  • Второе. Если вы продаёте услуги с ИИ-компонентом, подумайте об альтернативе для тех, кто её потребует. Пусть это будет продуманная опция, а не паническое «у нас нет человека, который это сделает».
  • Третье. В договоры и оферты стоит заложить информирование о применении ИИ. Это не только про закон — это про доверие клиентов, которое работает вне зависимости от любого законодательства.
  • Четвёртое. Если вы как раз планируете переход от «пользователь инструмента» к «владелец ИИ-сервиса», возьмите паузу и разберитесь с юридическими последствиями. Сейчас, пока закон не вступил в силу, у вас есть время сделать это без давления дедлайна.

 

Есть в этой истории один слой, который редко попадает в заголовки.

Все эти нормы — про информирование, про право отказаться, про альтернативу без автономного ИИ — они не с потолка. Они отражают реальный запрос людей, которые хотят понимать: с кем именно они разговаривают, кто принимает решения и кто несёт ответственность, когда что-то идёт не так.

Бизнес, который выстраивает эту прозрачность добровольно — вне зависимости от того, примут закон или нет — получает не просто юридическую защиту. Он получает доверие. А это, как ни крути, дороже любого автоматизированного контент-завода.

 

Статья написана на основе анализа частным лицом проекта федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации», опубликованного Минцифры России и отражает личное мнение автора. Не является юридической консультацией.
Еще в Ленте Смотреть все